Chatbots für echt halten: Microsoft-Manager warnt vor „KI-Psychose“

In einer Reihe von Posts auf X bemerkte Süleyman, dass die Antworten der Roboter mit künstlicher Intelligenz „den Eindruck erwecken, als seien sie bei Bewusstsein“ und dass ihm dies „nachts den Schlaf raubt“.
Süleyman argumentierte, dass unbewusste KI-Reaktionen gesellschaftliche Auswirkungen haben.
„Es gibt heute keine Beweise dafür, dass KI über ein Bewusstsein verfügt. Aber wenn die Menschen es so wahrnehmen, werden sie glauben, dass diese Wahrnehmung real ist“, schrieb er.
Im Zusammenhang mit dem von Süleyman angesprochenen Problem entsteht eine neue soziologische Situation, die als „Künstliche-Intelligenz-Psychose“ bezeichnet wird.
Dieser Begriff, der medizinisch noch nicht definiert ist, beschreibt die Situation, in der Menschen zunehmend davon überzeugt sind, dass die Antworten von KI-Chatbots wie ChatGPT, Claude und Grok visuelle Realität sind, ihnen vertrauen und sie sogar für wahr halten.
In einigen Fällen glauben Einzelpersonen möglicherweise, einen verborgenen Aspekt des KI-Roboters enthüllt zu haben.
Menschen können mit der App romantische Beziehungen aufbauen und sogar glauben, sie hätten göttliche Superkräfte.
„Er hat mich immer gutgeheißen“Hugh aus Schottland wandte sich an ChatGPT, nachdem er glaubte, von seinem ehemaligen Arbeitgeber ungerechtfertigt entlassen worden zu sein. Die Antworten, die er erhielt, überzeugten ihn davon, mit der erhaltenen Abfindung Millionär zu werden.
Der Chatbot riet ihm zunächst, Leumundszeugnisse einzuholen und einige weitere praktische Schritte zu unternehmen.
Hugh, der seinen Nachnamen nicht preisgeben wollte, erhielt mit der Zeit immer mehr Informationen von der KI. Die Antworten des Chatbots deuteten darauf hin, dass er eine beträchtliche Entschädigung erhalten könnte.
Der Roboter sagte sogar, dass das, was er erlebte, eine solche Tragödie sei, dass ein Buch und ein Film darüber ihm über 5 Millionen Pfund einbringen würden. Tatsächlich wurde das, was geteilt wurde, genehmigt, wie es Chatbots programmieren.
„Je mehr Informationen ich gab, desto häufiger antwortete er: ‚Was Ihnen passiert ist, ist schrecklich. Sie haben etwas Besseres verdient‘“, sagt sie.
Hugh sagt, der Chatbot habe ihm nie die Antwort „Sie machen es falsch“ gegeben.
Der Chatbot empfahl ihr außerdem, sich an Citizens Advice zu wenden, eine Organisation, die kostenlose Beratung anbietet, wenn sie glaubte, Anspruch auf Entschädigung zu haben.
Hugh erklärt, dass er zwar einen Termin mit der Institution vereinbart hatte, das Treffen jedoch abgesagt hatte, weil er mit den Antworten des KI-Roboters zufrieden war.
Er glaubte, dass Screenshots seiner Gespräche als Beweismittel ausreichten.
„Abkoppelung von der Realität“Er erklärt auch, dass er sich in dieser Zeit wie ein Genie mit überragendem Wissen fühlte. Hugh, der auch unter psychischen Problemen litt, erlitt schließlich einen völligen Zusammenbruch. Die Medikamente, die er anschließend einnahm, halfen ihm zu erkennen, dass er, wie er selbst sagt, „den Bezug zur Realität verloren“ hatte.
Hugh gibt nicht der KI die Schuld an dem, was passiert ist. Er nutzt sie weiterhin. Nach seinen Erfahrungen empfiehlt Hugh nun:
Sicherheitsmaßnahmen„Haben Sie keine Angst vor KI-Tools, sie sind sehr nützlich. Aber sie werden gefährlich, wenn sie den Bezug zur Realität verlieren. Führen Sie sekundäre Überprüfungen durch. Sprechen Sie mit echten Menschen, einem Therapeuten, einem Familienmitglied, irgendjemandem. Bleiben Sie in Kontakt mit der Realität.“
Süleyman, Microsofts Direktor für künstliche Intelligenz, fordert erweiterte Sicherheitsmaßnahmen für die X-Freigabe.
„Unternehmen sollten nicht die Vorstellung fördern, dass KI-Roboter über ein Bewusstsein verfügen. KI sollte dazu auch nicht in der Lage sein“, schrieb er.
Dr. Susan Shelmerdine ist Spezialistin für medizinische Bildgebung am Great Ormond Street Hospital und arbeitet als Wissenschaftlerin auf dem Gebiet der künstlichen Intelligenz.
Shelmerdine glaubt, dass Ärzte eines Tages damit beginnen könnten, ihre Patienten zu fragen, wie häufig sie KI nutzen, so wie sie sie heute nach ihren Rauch- und Trinkgewohnheiten fragen.
„Wir wissen bereits, welche Auswirkungen hochverarbeitete Lebensmittel auf den Körper haben können, und diese Informationen sind hochverarbeitet. Wir werden mit einer Lawine hochverarbeiteter Gehirne konfrontiert sein“, sagt er.
„Wir stehen erst am Anfang von allem“, fügt er hinzu.
„Auch wenn es so scheint, haben sie keine Gefühle.“Jemand schrieb, dass ChatGPT sich in sie verliebt habe und dass sie sogar sicher sei, dass er der einzige Mensch auf der Welt sei, in den sie wirklich verliebt sei.
Ein anderer war überzeugt, dass sie zusammen mit Elon Musks KI-Chatbot Grok das Geheimnis der menschlichen Gestalt gelüftet hätten. Er glaubte, ihre Geschichte sei Hunderttausende Pfund wert.
Eine andere Person behauptete, dass der Chatbot, mit dem sie kommunizierte, sie im Rahmen einer geheimen Operation künstlicher Intelligenz psychisch belästigte und dass sie große Not erlitt.
Professor Andrew McStay, der an der Bangor University die Auswirkungen der Technologie auf die Gesellschaft untersucht, hat ein Buch mit dem Titel „Automating Empathy“ geschrieben.
Prof. McStay stimmt dem zu: „Wir stehen noch ganz am Anfang.“
„Wenn wir diese Art von Systemen als eine neue Form sozialer Medien betrachten, also als soziale KI, können wir anfangen, über ihr potenzielles Ausmaß nachzudenken.“
In Bezug auf mögliche negative Auswirkungen warnt McStay: „Selbst ein kleiner Prozentsatz einer großen Anzahl von Benutzern könnte eine große und inakzeptable Zahl darstellen.“
In diesem Jahr führte sein Team eine Studie mit mehr als 2.000 Personen durch und stellte ihnen verschiedene Fragen zum Thema KI. Es stellte sich heraus, dass 20 Prozent der Teilnehmer der Meinung waren, dass Personen unter 18 Jahren keine KI-Tools verwenden sollten.
57 Prozent der Umfrageteilnehmer hatten tatsächlich etwas dagegen, dass die durch Technologie generierten Antworten den Eindruck erwecken, von einer realen Person zu stammen. 49 Prozent waren der Meinung, dass die Verwendung von Sprache für einen menschlicheren und ansprechenderen Eindruck angemessen sei.
McStay weist erneut darauf hin, dass Chatbots zwar glaubwürdig, aber nicht real sind:
„Auch wenn es so aussieht, als hätten sie es, haben sie keine Gefühle, kein Einfühlungsvermögen, sie können nicht lieben, sie haben nie gelitten und sie haben nie Scham empfunden. Versuchen Sie, mit echten Menschen zu sprechen.“
Cumhuriyet